花費 31 ms
smooth L1損失函數

當預測值與目標值相差很大時,L2 Loss的梯度為(x-t),容易產生梯度爆炸,L1 Loss的梯度為常數,通過使用Smooth L1 Loss,在預測值與目標值相差較大時,由L2 Loss轉 ...

Sun Aug 25 22:50:00 CST 2019 0 1468
目標檢測技術演進:R-CNN、Fast R-CNN、Faster R-CNN

看到一篇循序漸進講R-CNN、Fast R-CNN、Faster R-CNN演進的博文,寫得非常好,摘入於此,方便查找和閱讀。 object detection,就是在給定的圖片中精確找到物體所在 ...

Thu Sep 13 08:38:00 CST 2018 0 1960
Faster R-CNN訓練自己的數據集時遇到的報錯及解決方案

最近使用Faster R-CNN訓練了實驗室的數據集,期間遇到一些報錯,主要還是在配置環境上比較麻煩,但可以根據提示在網上找到解決這些錯誤的辦法。這里我只記錄一些難改的報錯,以后再遇見這些時希望能盡快 ...

Fri Feb 19 05:43:00 CST 2021 2 419
多任務Multitask Learning

一次只學習一個任務,大部分機器學習都屬於單任務學習。 多任務學習:把多個相關的任務放在一起學習,同時學習多個任務。 對於復雜的問題,可以分解為簡單的相互獨立的子問題來解決,然后再合並結果,得到最初 ...

Fri Jul 19 23:14:00 CST 2019 0 423

 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM